Unser ideales Profil Masterabschluss in Informatik, Mathematik/Statistik, Wirtschaftswissenschaften/Ökonometrie oder einem verwandten Fachgebiet.Mehrjährige Berufserfahrung in quantitativer Datenanalyse oder eine Promotion mit mindestens einem Jahr relevanter Berufserfahrung im Bereich Machine‑Learning‑Forschung.Sehr gute Kenntnisse und tiefes Verständnis von Machine‑Learning‑Methoden, sowohl klassisch als auch Deep Learning.Relevante Erfahrung mit Natural Language Processing (NLP) zur Extraktion strukturierter Konzepte aus unstrukturiertem Freitext, einschließlich Design, Training und Evaluierung von Information‑Extraction‑Pipelines.Sehr starke technische Fähigkeiten in Python, SQL und dem Hadoop‑Ökosystem.Erfahrung in der Anwendung von KI-/Machine‑Learning‑Methoden auf geschäftliche Fragestellungen.Sehr gute Kenntnisse fortgeschrittener statistischer und ökonometrischer Methoden in Theorie und Praxis.Erfahrung im Umgang mit Big Data.Fähigkeit, sauberen, wiederverwendbaren, produktionsreifen Code zu schreiben.Hervorragende Kommunikationsfähigkeiten (schriftlich und mündlich), einschließlich technischer Projektaspekte, Dokumentation, Ergebnisinterpretation und geschäftlicher Empfehlungen.Ausgeprägtes analytisches Denken und logische Problemlösungskompetenz, starke Qualitätsorientierung.Kenntnisse des Pharmamarktes und Erfahrung mit pharmazeutischen Daten (medizinische Daten, Krankenhausdaten, Apothekendaten, Abrechnungsdaten) sind von Vorteil, aber nicht zwingend erforderlich.Selbstständige Projektsteuerung.Fließende Deutsch- und Englischkenntnisse.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Scientist (m/w/d) Deine Aufgaben Du entwickelst Lösungen im Bereich Predictive Analytics, Machine Learning und Künstliche Intelligenz Du analysierst Prozesse, erarbeitest Optimierungspotentiale und erstellst Prototypen, um Lösungsansätze zu bestätigen Du berätst unsere Fachbereiche bei der Anwendung von datengetriebenen Lösungen Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI- und Data Science-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung sowie gute Mathematik-, Statistik- und IT-Kenntnisse. Weiterhin bist Du kreativ und hast eine Leidenschaft für Daten. Add-on: Du verfügst über SQL-Kenntnisse und hast ggf. bereits Praxiserfahrung mit Python.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Scientist (m/w/d) Deine Aufgaben Du entwickelst Lösungen im Bereich Predictive Analytics, Machine Learning und Künstliche Intelligenz Du analysierst Prozesse, erarbeitest Optimierungspotentiale und erstellst Prototypen, um Lösungsansätze zu bestätigen Du berätst unsere Fachbereiche bei der Anwendung von datengetriebenen Lösungen Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI- und Data Science-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung sowie gute Mathematik-, Statistik- und IT-Kenntnisse. Weiterhin bist Du kreativ und hast eine Leidenschaft für Daten. Add-on: Du verfügst über SQL-Kenntnisse und hast ggf. bereits Praxiserfahrung mit Python.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining)Entwicklung und Implementierung von Datenmodellen zur ProzessoptimierungNutzung von Google Cloud Platform (GCP) für Datenmanagement und AnalyseAufbau von skalierbaren Datenpipelines und ETL-ProzessenZusammenarbeit mit internen Fachbereichen zur Digitalisierung und AutomatisierungLangfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer FachrichtungErfahrung als Data Scientist oder in einer ähnlichen RolleFundierte Kenntnisse in:Google Cloud Platform (BigQuery, AI/ML-Services)Programmiersprachen: Python, SQLData Analytics, Machine Learning, Data MiningErfahrung mit ETL-Prozessen und Cloud-ArchitekturenAnalytisches Denken, strukturierte Arbeitsweise und KommunikationsstärkeSehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenAngenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener KommunikationsstilJährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Operative Unterstützung bei der Umsetzung des EU AI ACT Analyse und Bewertung bestehender AI- und Datenmodelle hinsichtlich regulatorischer Konformität Klassifizierung, Dokumentation und Risikobewertung bankinterner AI-Systeme Anpassung von Datenpipelines, Modellierungsprozessen und Governance-Strukturen gemäß EU AI ACT Erstellung revisionssicherer Dokumentationen und Reports sowie Begleitung interner/externer Prüfungen Bankenerfahrung ist Voraussetzung Tiefes Know-how in Machine Learning, Data Analytics und statistischer Modellierung Erfahrung in regulatorischen Umsetzungsprojekten in Banken, insbesondere EU AI ACT, BAIT, Modellrisikomanagement Sichere Kenntnisse in Python, gängigen ML-Frameworks, MLOps-Umgebungen und Datenqualitätsverfahren Nachweisbare Erfahrung in Modellvalidierung, Dokumentation und Modell-Governance im Finanzsektor Fähigkeit, komplexe technische Inhalte in klare regulatorische Anforderungen zu übersetzen Dynamisches Projektumfeld Ihr Kontakt Referenznummer 866057/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Operative Unterstützung bei der Umsetzung des EU AI ACTAnalyse und Bewertung bestehender AI- und Datenmodelle hinsichtlich regulatorischer KonformitätKlassifizierung, Dokumentation und Risikobewertung bankinterner AI-SystemeAnpassung von Datenpipelines, Modellierungsprozessen und Governance-Strukturen gemäß EU AI ACTErstellung revisionssicherer Dokumentationen und Reports sowie Begleitung interner/externer Prüfungen Bankenerfahrung ist VoraussetzungTiefes Know-how in Machine Learning, Data Analytics und statistischer ModellierungErfahrung in regulatorischen Umsetzungsprojekten in Banken, insbesondere EU AI ACT, BAIT, ModellrisikomanagementSichere Kenntnisse in Python, gängigen ML-Frameworks, MLOps-Umgebungen und DatenqualitätsverfahrenNachweisbare Erfahrung in Modellvalidierung, Dokumentation und Modell-Governance im FinanzsektorFähigkeit, komplexe technische Inhalte in klare regulatorische Anforderungen zu übersetzen Dynamisches Projektumfeld Ihr Kontakt Referenznummer 866057/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Mindestens 6 Jahre praktische Erfahrung in der Implementierung von produktionsreifer Software mit Python, Git, CI/CD, Testing (Unittests und End-to-End Tests) Mindestens 6 Jahre praktische Erfahrung in der Datenanalyse mit SQL oder MDX (TM1) Sehr gute Deutsch Kenntnisse (mind.B2) vorausgesetzt. Projekterfahrung aus mind. 1 Projekt zum Chatten mit SQL-Daten Projekterfahrung aus mind. 1 Projekt in der Evaluation von Agentensystemen (u.a. mit LLM-as-a-Judge Methodiken) Praktische Erfahrung in der Entwicklung von Retrieval-Systemen für RAG-Anwendungen unter der Verwendung von Vektordatenbanken (z.B.
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
BI Consultant, Data Scientist, Data Analyst), idealerweise mit Projektverantwortung in einem produzierenden UnternehmenTechnische Tiefe in ETL, Reporting, Data Engineering, Datenmanagement und Business IntelligenceSehr gute Kenntnisse in Qlik Sense Erfahrung in der Datenmodellierung und Erstellung von AuswertungenSicherer Umgang mit ERP-Systemen, insbesondere SAP oder gleichwertigSehr gute Kommunikationsfähigkeiten in Deutsch C1 und Englisch B2 WIR GARANTIEREN IHNEN: Sie erwartet eine direkte Festanstellung bei unserem wertschätzenden Kunden.Um Sie bestmöglich bei unserem Kunden zu präsentieren, optimieren wir gemeinsam Ihre Bewerbungsunterlagen und bereiten Sie gründlich auf das Vorstellungsgespräch im Unternehmen vor.Damit Sie zu den besten Konditionen eingestellt werden, stehen wir Ihnen im Voraus zur Verhandlung Ihres Arbeitsvertrags beratend zur Seite.Darüber hinaus beraten wir Sie auch gern kostenfrei zu weiteren passenden Karrieremöglichkeiten.Diese attraktiven Benefits bietet Ihnen unser Kunde außerdem:Es besteht die Möglichkeit, sofern erforderlich, dass Ihr neuer Arbeitgeber Sie während der Probezeit bei den Kosten für eine temporäre Unterkunft unterstützt mit flexiblen Optionen!
Gestalten, Implementieren und Pflegen von Datenpipelines Zusammenführen und Konsolidieren von Daten aus verschiedenen Systemen und Plattformen Gewährleisten der Datenqualität, Identifizieren und Bereinigen von Unstimmigkeiten Überwachung und Optimierung von Datenbanken und Speicherlösungen Implementierung von Sicherheitsmaßnahmen und Datenschutzrichtlinien Enge Zusammenarbeit mit Data Scientists, Analysten und anderen Stakeholdern Technologietrends verfolgen und stetig auf dem neuesten Stand der Datenverarbeitungstechnologien bleiben Deutsch fließend in Wort und Schrift (C1), gute Englischkenntnisse Abgeschlossenes Studium in Informatik, Datenwissenschaft oder adäquate Qualifikation Erfahrung in der Datenverarbeitung, idealerweise in einer ähnlichen Position als Data-Engineer Gute Kenntnisse in relevanten Programmiersprachen (Python, Java, etc.) Erfahrung mit relationalen und nicht-relationalen Datenbanken (SQL, No-SQL) Erfahrung mit ETL-Tools und -Frameworks wie Apache Spark, Apache NiFi oder ähnlichen Grundkenntnisse in Big Data-Technologien wie Hadoop, MongoDB, Graph Datenbanken und Vector Datenbanken Kommunikationsfähigkeit, Analytisches Denken, Selbstständigkeit Innovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Staatsexamen, Bachelor, Master) oder abgeschlossene fachbezogene Ausbildung mit entsprechender Weiterbildung Alternativ relevante Erfahrung in Labor- oder Produktionsbetrieben Gute Deutschkenntnisse in Wort und Schrift Fundiertes Verständnis chemischer Analytik Erfahrung in der Qualitätskontrolle und chemisch-analytischen Methoden Erfahrung im GMP-Umfeld SAP-Kenntnisse wünschenswert Englischkenntnisse zur Arbeit mit internationalen Dokumenten oder Schnittstellen Jährlicher Urlaubsanspruch von 30 Tagen Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Betreuung im gesamten Bewerbungsprozess Betreuung im laufenden Projekt durch unser Team Ihr Kontakt Referenznummer 864784/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Staatsexamen, Bachelor, Master) oder abgeschlossene fachbezogene Ausbildung mit entsprechender WeiterbildungAlternativ relevante Erfahrung in Labor- oder ProduktionsbetriebenGute Deutschkenntnisse in Wort und SchriftFundiertes Verständnis chemischer AnalytikErfahrung in der Qualitätskontrolle und chemisch-analytischen MethodenErfahrung im GMP-UmfeldSAP-Kenntnisse wünschenswertEnglischkenntnisse zur Arbeit mit internationalen Dokumenten oder Schnittstellen Jährlicher Urlaubsanspruch von 30 TagenAbwechslungsreiche Tätigkeit in einem renommierten UnternehmenAnspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen BrancheBetreuung im gesamten BewerbungsprozessBetreuung im laufenden Projekt durch unser Team Ihr Kontakt Referenznummer 864784/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript)Durchführung von technischen Konzeptionen, Analysen und Design neuer FeaturesEntwicklung von Spring-Webapplikationen in der Azure CloudEntwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und ModellbereitstellungenGemeinsame Verantwortung für die Applikation ChatGPT-SkillInitiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner WebapplikationenSehr gute Kenntnisse in Java, Spring Boot, Angular und TypescriptHochschulabschluss in Informatik oder gleichwertige BerufserfahrungGutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und BereitstellungsanforderungenFähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution ArchitectsBereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulenPython-Erfahrung von VorteilSprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps EngineersMitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-SkillsTätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript) Durchführung von technischen Konzeptionen, Analysen und Design neuer Features Entwicklung von Spring-Webapplikationen in der Azure Cloud Entwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und Modellbereitstellungen Gemeinsame Verantwortung für die Applikation ChatGPT-Skill Initiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner Webapplikationen Sehr gute Kenntnisse in Java, Spring Boot, Angular und Typescript Hochschulabschluss in Informatik oder gleichwertige Berufserfahrung Gutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und Bereitstellungsanforderungen Fähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution Architects Bereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulen Python-Erfahrung von Vorteil Sprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps Engineers Mitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-Skills Tätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Ihre Aufgaben: Entwicklung und Implementierung KI-gestützter Anwendungen mit Schwerpunkt auf Front-End-Lösungen (Machine Learning, NLP, Computer Vision, Generative AI, RAG-Systeme)Design und Programmierung von Softwaremodulen unter Nutzung moderner Sprachen und Frameworks (Python, Java, .NET, TensorFlow, PyTorch)Aufbau und Integration von Datenpipelines für Training und Betrieb von KI-Modellen auf Plattformen wie der Eigenentwicklung AI.nsteinKonzeption und Entwicklung fachspezifischer KI-Agents mittels Prompt-EngineeringZusammenarbeit mit Data Scientists und KI-Architekten bei der Überführung von KI-Modellen in produktive UmgebungenSicherstellung hoher Code-Qualität durch Clean Code-Prinzipien, Unit Tests und automatisierte TestverfahrenDurchführung von Fehleranalysen sowie kontinuierliche Optimierung und Weiterentwicklung bestehender AnwendungenTechnische Dokumentation von Entwicklungen, Architekturen und ErgebnissenEvaluation und Bewertung neuer KI-Technologien, Tools und Frameworks Ihre Qualifikation: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine auf anderem Weg erworbene gleichwertige QualifikationMehrjährige Berufserfahrung in der Softwareentwicklung mit modernen Programmiersprachen (Python, Java, C#, JavaScript)Fundierte Kenntnisse im Bereich Künstliche Intelligenz (Machine Learning, NLP, Generative AI, RAG-Systeme)Ausgeprägte Erfahrung im Prompt-Engineering und in der Entwicklung von KI-AgentsPraktische Erfahrung mit KI-/Datenplattformen (z.B.
Medizintechnik, Biotechnologie, Pharmazie, Ingenieurwissenschaften, Naturwissenschaften)Mehrjährige Berufserfahrung im regulierten Entwicklungsumfeld von Medizin- oder KombinationsproduktenFundierte Kenntnisse im Design Control Prozess (z. B. gemäß 21 CFR 820.30 oder MDR)Idealerweise Erfahrung in der Planung, Durchführung und Dokumentation von Design-VerifizierungenStrukturierte, analytische und eigenverantwortliche ArbeitsweiseSehr gute Kommunikationsfähigkeit und Teamorientierung WIR GARANTIEREN IHNEN: Wir zahlen ein tarifliches Gehalt welches sich an den Chemietarif anlehnt sowie ggf.
Das ist die Aufgabe Mitwirken im innovativen Big Data Team: Unterstütze andere Fachbereiche durch Expertise in Data Analytics und erhalte Einblicke in Data Science und Data Visualization, um datengetriebene Entscheidungen voranzutreiben Beteiligen an Analytics Projekten: Arbeite interdisziplinär, um Produkte und interne Prozesse durch datengetriebene Insights zu optimieren, mit der Chance, echte geschäftliche Herausforderungen mit modernen Analysemethoden zu lösen Entwickeln von Analysemodellen: Nutze Data Science Tools wie PySpark oder Azure Synapse für komplexe Datenprobleme und gewinne wertvolle Einblicke Erstellen und Präsentieren von Reports: Gestalte mit Power BI visuell ansprechende Reports, die Analyseergebnisse verständlich machen, und teile deine Erkenntnisse mit internen Stakeholdern Kommunizieren von Ergebnissen: Präsentiere deine Analysen und Empfehlungen, um Entscheidungsprozesse zu beeinflussen und kommunikative Fähigkeiten zu stärken Das wünschen wir uns Laufendes Studium der Fachrichtung Informatik, Wirtschaftsinformatik, Mathematik oder vergleichbare Studiengänge Erste Erfahrungen in der Analyse, Transformation und Visualisierung von Daten von Vorteil Fachliche Kenntnisse im Bereich Cloud Lösungen wie Microsoft Azure vorteilhaft Gute Programmierkenntnisse, vorzugsweise in Python und SQL Selbstorganisierte, strukturierte und zielorientierte Arbeitsweise im Team Ein hohes Maß an Neugierde, um neue Erkenntnisse aus Daten zu generieren Gute Deutsch- und Englischkenntnisse in Wort und Schrift Weitere Details zur Stelle Gehalt: 2.117 €/Monat Beginn: ab April 2026 Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Du bist erfahren im Umgang mit Kafka, Spark, Oracle PL/SQL, Informatica, DWH Automation und/oder CI/CD. Du besitzt Kenntnisse in Java und/oder Python und kennst relevante Tools und Bibliotheken. Du hast idealerweise Praxiserfahrung mit Cloud-Technologien (AWS und/oder MS Azure) und Datenmodellierung (Data Vault, Dimensional, 3NF, ADAPT etc.).
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
MID – Driving Continuous Transformation Mit der zunehmenden Bedeutung der Datenverarbeitung in der Cloud suchen wir nach einem erfahrenen Data Vault Consultant, der uns bei der Implementierung und Optimierung von Data Vault Lösungen in einer Cloud-Umgebung unterstützt.Du entwirfst und implementierst skalierbare Data Vault 2.1-Modelle.Dabei designst, modellierst und entwickelst Du Datenintegrationslösungen, die auf Best Practices im Bereich Data Vault basieren.Zur Sicherstellung einer reibungslosen Datenpipeline arbeitest Du eng mit den Data Engineering und BI-Teams zusammen.Du beteiligst Dich an Datenqualitätsprüfungen, Validierungen und Governance-Praktiken.Die Analyse von Kundenanforderungen und Übersetzung in skalierbare und robuste Architekturen gehören ebenfalls zu Deinen Aufgaben.Du unterstützt bei der Migration bestehender Lösungen in die Cloud.Du unterstützt die Geschäftsberichterstattung und -analyse durch sauber versionierte Data MartsAußerdem schulst und coachst Du Teams in Data Vault Methodiken und Best Practices in den jeweiligen Cloud Umgebungen.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik, Mathematik, MINT-Fächern oder eine vergleichbare Qualifikation hast Du abgeschlossen.Du konntest bisher mindestens 5 Jahre Erfahrung in der Modellierung und Implementierung von Data Vault Lösungen in Produktionsumgebungen sammeln und bringst fundierte Kenntnisse in der Arbeit mit Cloud-Datenplattformen (z. B. Snowflake, GCP BigQuery, Azure Synapse) mit.Du hast ein starkes Verständnis von ETL/ELT-Prozessen und Cloud-Architekturen sowie sehr gute Erfahrung in SQL, idealerweise in der Automatisierung und Optimierung von Datenprozessen.Bestenfalls bringst Du Zertifizierungen im Bereich Data Vault 2.0 oder 2.1 mit.Idealerweise kannst Du Ende zu Ende von der lokalen Entwicklung bis hin zum Cloud-Deployment und Monitoring tätig sein und bereits komplexe Cloud-native Software entwickelt und betrieben Du punktest durch analytische und konzeptionelle Fähigkeiten sowie einer eigenständigen und strukturierten Arbeitsweise Eine hohe Kommunikationsfähigkeit sowie Kreativität und soziale Kompetenz zeichnen Dich aus Du verfügst über verhandlungssichere Deutschkenntnisse und kannst bei Bedarf auch in englischer Sprache kommunizieren Gelegentliche Dienstreisen innerhalb Deutschlands sind für Dich kein Problem Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Python, Java, .NETz, TensorFlow, PyTorch) Aufbau und Integration von Datenpipelines für das Training und den Betrieb von KI-Modellen Zusammenarbeit mit Data Scientists und KI Architekten bei der Umsetzung von KI-Modellen in produktive Umgebungen Sicherstellung von Codequalität, Testbarkeitund Performance durch Clean Code, Unit Tests und automatisierte Tests Durchführung von Fehleranalysen, Optimierung und Weiterentwicklungen bestehender Anwendungen Dokumentation von Entwicklungen und Ergebnissen Untersützung bei der Evaluation neuer Ki-Technologien und Tools Ihr Profil Berufserfahrunge in der Softwareentwicklung (z.B. Python, Java, C#, JavaScript) Fundierte Kenntnisse im Bereich Künstliche Intelligenz (z.B. Machine Learning, NLP, Generative AI) Erfahrung mit Frameworks und Tools wie TensorFlow, PyTorch, Hugging Face o.Ä Praktische Erfahung mit RAG insbesondere mi Aufbau von Pipelines zur Kombination von LLMs Verständnis mit Indexierung, Chunking-Strategien und semantische Suche Vorteilhaft: Kenntnisse in LangChain, LlamaIndex oder ähnlichen Frameworks zur Entwicklung von RAG-basierten Anwendungen Teamfähigkeit und Freude an interdiziplinärer Zusammenarbeit Quaitätsbewusstsein und struktuiriertes Vorgelhen Berufliche Karrieren verlaufen nicht immer perfekt oder geradlinig.
Python, Java, .NETz, TensorFlow, PyTorch) Aufbau und Integration von Datenpipelines für das Training und den Betrieb von KI-Modellen Zusammenarbeit mit Data Scientists und KI Architekten bei der Umsetzung von KI-Modellen in produktive Umgebungen Sicherstellung von Codequalität, Testbarkeitund Performance durch Clean Code, Unit Tests und automatisierte Tests Durchführung von Fehleranalysen, Optimierung und Weiterentwicklungen bestehender Anwendungen Dokumentation von Entwicklungen und Ergebnissen Untersützung bei der Evaluation neuer Ki-Technologien und Tools Ihr Profil Berufserfahrunge in der Softwareentwicklung (z.B. Python, Java, C#, JavaScript) Fundierte Kenntnisse im Bereich Künstliche Intelligenz (z.B. Machine Learning, NLP, Generative AI) Erfahrung mit Frameworks und Tools wie TensorFlow, PyTorch, Hugging Face o.Ä Praktische Erfahung mit RAG insbesondere mi Aufbau von Pipelines zur Kombination von LLMs Verständnis mit Indexierung, Chunking-Strategien und semantische Suche Vorteilhaft: Kenntnisse in LangChain, LlamaIndex oder ähnlichen Frameworks zur Entwicklung von RAG-basierten Anwendungen Teamfähigkeit und Freude an interdiziplinärer Zusammenarbeit Quaitätsbewusstsein und struktuiriertes Vorgelhen Berufliche Karrieren verlaufen nicht immer perfekt oder geradlinig.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Mehr als ein grüner Daumen – Ihr Profil als Expert/Sachbearbeiter Master Data Management & Product Data (m/w/d): Abgeschlossene Ausbildung im Bereich, Bürokommunikation, Verwaltung oder eine vergleichbare Qualifikation Erste Erfahrung in der Stammdatenpflege Gute Kenntnisse in MS Office, insbesondere Excel Idealerweise Erfahrung mit ERP-Systemen, insbesondere SAP S4/HANA Analytische Fähigkeiten und ein Auge für Details Strukturierte und gewissenhafte Arbeitsweise Kommunikationsstärke und Teamfähigkeit Gute Deutschkenntnisse in Wort und Schrift, Englischkenntnisse sind von Vorteil Teil- oder Vollzeitbeschäftigung: ab 20 Std.
Teilprojektleitung in internationalen Projekten im Bereich Data- / Process Mining, Data Analytics und maschinelles Lernen Koordination und Steuerung von internen IT-Ressourcen, externen Partnern und Mitarbeitern der Fachabteilung Mitarbeit in Projekten außerhalb des eigenen Verantwortungsbereichs bei Bedarf Ihr Profil: Erfolgreich abgeschlossenes Studium aus dem Bereich Informationstechnologie, Data Science oder eine gleichwertige Ausbildung Mehrjährige Erfahrung im Bereich Qlik Sense Entwicklung Mehrjährige Berufserfahrung als Projektleiter oder Consultant, idealerweise in einem produzierenden Unternehmen (z.B. Maschinen-/Anlagenbau) von Vorteil Sehr gute Kenntnisse im Bereich ETL, Datenmodellierung und Reporting Kenntnisse über Datenstrukturen in SAP ERP und S/4HANA wünschenswert Kenntnisse im objektorientierten Design und der Softwarequalität Sehr gute analytische Fähigkeiten und ein starker Sinn für Geschäftsprozesse und Business Prioritäten Eigenständige, strukturierte und lösungsorientierte Arbeitsweise Sehr gute Kommunikations- und zwischenmenschliche Fähigkeiten Sichere Kommunikation in Deutsch und Englisch Reisebereitschaft (ca. 15%) Haben wir Ihr Interesse geweckt?
Eintritt Standort Dauer DHBW-Standort 2026 Igersheim-Harthausen 3 Jahre Mosbach Darin bilden wir dich aus: Bearbeitung von komplexen informationstechnischen AufgabenstellungenAnwendung von Methoden, Verfahren und Techniken der InformationstechnologieKoordination von Programmierung, Integration, Betreuung und Wartung neuer SoftwareFachwissen in den Bereichen digitale Kommunikation und Ingenieurwissenschaften Erwerb von Kenntnissen über Prozessabläufe in den Bereichen Produktion, Logistik und Datenkommunikation Das bringst du mit: Freude am Umgang mit Software und erste ProgrammierkenntnisseInteresse an IT-SystemenInteresse an ProgrammiersprachenErfolg in den Schulfächern Mathematik, Informatik, und EnglischAllgemeine Hochschulreife, fachgebundene Hochschulreife oder Fachhochschulreife mit zuvor absolviertem Studierfähigkeitstest der DHBW
Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B. SAP Analytics Cloud, PowerBI) Erfahrung mit Python zur Erstellung komplexerer Analysen und Modelle von Vorteil Fließende Deutschkenntnisse in Wort und Schrift Analytische Fähigkeiten und Verständnis für Geschäftsprozesse Kommunikationsstärke und Teamfähigkeit Hohe Eigeninitiative und lösungsorientiertes Arbeiten Unser Angebot Möglichkeit, Praxiserfahrung in der Vertriebssteuerung eines renommierten Stahlhandelsunternehmens zu sammeln Flache Hierarchien und Übernahme von Verantwortung Spannendes Aufgabengebiet und eigenverantwortliches mobiles Arbeiten Flexibles Arbeitszeitmodell Attraktive Vergünstigungen im Rahmen unserer Corporate Benefits Einsatzort: Mülheim an der Ruhr ǀ Nordrhein-Westfalen Art der Beschäftigung: Werkstudentische Tätigkeit
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B. SAP Analytics Cloud, PowerBI) Erfahrung mit Python zur Erstellung komplexerer Analysen und Modelle von Vorteil Fließende Deutschkenntnisse in Wort und Schrift Analytische Fähigkeiten und Verständnis für Geschäftsprozesse Kommunikationsstärke und Teamfähigkeit Hohe Eigeninitiative und lösungsorientiertes Arbeiten Unser Angebot Möglichkeit, Praxiserfahrung in der Vertriebssteuerung eines renommierten Stahlhandelsunternehmens zu sammeln Flache Hierarchien und Übernahme von Verantwortung Spannendes Aufgabengebiet und eigenverantwortliches mobiles Arbeiten Flexibles Arbeitszeitmodell Attraktive Vergünstigungen im Rahmen unserer Corporate Benefits Einsatzort: Mülheim an der Ruhr ǀ Nordrhein-Westfalen Art der Beschäftigung: Werkstudentische Tätigkeit
Mehrjährige Erfahrung als Data Engineer oder in einer ähnlichen Rolle bringst du mit. Sehr gute Kenntnisse in Python und SQL zeichnen dich aus. Du hast fundierte Praxis in der Entwicklung und im Betrieb von Data Pipelines gesammelt.